Aproximación o ajuste a una curva usando el método de mínimos cuadrados

Nosotros tenemos que elegir la función que mejor se puede ajustar a los datos que tenemos.
La función de aproximación se define de esta manera \[ f(x) = \sum_{j=1}^{m} \theta_j \phi_j(x) \] Donde:

Por ejemplo si tenemos que Entonces \[ f(x) = \theta_1 \phi_1(x) + \theta_2\phi_2(x) + \theta_3\phi_3(x) \] \[ f(x) = \theta_1 x^2 + \theta_2 x + \theta_3 \]

Función de error o funcional de desviación

La función de error la definimos utilizando el criterio de mínimo error cuadrático: \[ S = \sum (y_i - f(x_i))^2 \] Donde:
Porque usamos error cuadrático en lugar de error absoluto o función módulo?
Porque no está definida la derivada para el valor absoluto y necesitamos la derivada para encontrar el mínimo de la función.
Reemplazar función a evaluar en la función de desviación
Función a evaluar: \[ \color{purple} f(x) = \sum_{j=1}^{m} \theta_j \phi_j(x) \] Función de error: \[ S = \sum (y_i - \color{purple} f(x_i) \color{black} )^2 \] \[ S = \sum (y_i - \color{purple} \sum_{j=1}^{m} \theta_j \phi_j(x_i) \color{black} )^2 \] Siguiendo el ejemplo anterior: \[ S = \sum (y_i - \color{purple} (\theta_1 x_i^2 + \theta_2 x_i + \theta_3) \color{black} )^2 \]
Calcular derivadas parciales
Podemos ver la función de error de la siguiente manera:
\(S = u^2\)
\(S' = 2uu'\)
Entonces: \[ u = y_i - (\theta_1 x_i^2 + \theta_2 x_i + \theta_3) \] Las variables que buscamos son \(\color{brown}\theta_j\), así que las tomamos como variables, so \(\color{blue}x^2\), \(\color{blue}x\) y \(\color{blue}x^0\) son constantes. \[ u = y_i - ( \color{brown} \theta_1 \color{blue} x_i^2 \color{black} + \color{brown} \theta_2 \color{blue} x_i \color{black} + \color{brown} \theta_3 \color{blue} x_i^0 \color{black} ) \] Entonces, dado que la derivada de \(y=\color{blue}c \color{brown} x\) es \(y'=\color{blue}c\) las derivadas parciales son: \[ \frac{\partial u}{\partial \color{brown} \theta_1} \color{black}= -\color{blue}x_i^2 \] \[ \frac{\partial u}{\partial \color{brown} \theta_2}\color{black} = -\color{blue}x_i \] \[ \frac{\partial u}{\partial \color{brown} \theta_3} \color{black}= -\color{blue}1 \] Entonces: \[ \frac{\partial S}{\partial \theta_1} = 2 (y_i - (\theta_1 x_i^2 + \theta_2 x_i + \theta_3))(-2x_i) \] \[ \frac{\partial S}{\partial \theta_2} = 2 (y_i - (\theta_1 x_i^2 + \theta_2 x_i + \theta_3))(-1) \] \[ \frac{\partial S}{\partial \theta_3} = 2 (y_i - (\theta_1 x_i^2 + \theta_2 x_i + \theta_3))(0) \] Si generalizamos las derivadas parcialesnos queda que: \[ \theta_j \phi(x_i) \rightarrow \phi(x_i) \]